首页> 外文OA文献 >Weakly-Supervised Semantic Segmentation using Motion Cues
【2h】

Weakly-Supervised Semantic Segmentation using Motion Cues

机译:使用运动线索进行弱监督的语义分割

代理获取
本网站仅为用户提供外文OA文献查询和代理获取服务,本网站没有原文。下单后我们将采用程序或人工为您竭诚获取高质量的原文,但由于OA文献来源多样且变更频繁,仍可能出现获取不到、文献不完整或与标题不符等情况,如果获取不到我们将提供退款服务。请知悉。

摘要

Fully convolutional neural networks (FCNNs) trained on a large number ofimages with strong pixel-level annotations have become the new state of the artfor the semantic segmentation task. While there have been recent attempts tolearn FCNNs from image-level weak annotations, they need additionalconstraints, such as the size of an object, to obtain reasonable performance.To address this issue, we present motion-CNN (M-CNN), a novel FCNN frameworkwhich incorporates motion cues and is learned from video-level weakannotations. Our learning scheme to train the network uses motion segments assoft constraints, thereby handling noisy motion information. When trained onweakly-annotated videos, our method outperforms the state-of-the-art EM-Adaptapproach on the PASCAL VOC 2012 image segmentation benchmark. We alsodemonstrate that the performance of M-CNN learned with 150 weak videoannotations is on par with state-of-the-art weakly-supervised methods trainedwith thousands of images. Finally, M-CNN substantially outperforms recentapproaches in a related task of video co-localization on the YouTube-Objectsdataset.
机译:在大量具有强像素级注释的图像上训练的全卷积神经网络(FCNN)已成为语义分割任务的最新技术。尽管最近有尝试从图像级弱注释中学习FCNN的方法,但它们还需要其他约束(例如对象的大小)才能获得合理的性能。为解决此问题,我们提出了一种运动CNN(M-CNN),这是一种新颖的方法FCNN框架结合了运动提示,可以从视频级弱注释中学习。我们训练网络的学习方案使用运动段作为软约束,从而处理嘈杂的运动信息。在带有弱注释的视频上进行训练时,我们的方法优于PASCAL VOC 2012图像分割基准测试中最先进的EM-Adaptapproach。我们还演示了通过150个弱视频注释学习的M-CNN的性能与训练有成千上万个图像的最新的弱监督方法相当。最后,在YouTube对象数据集上进行视频共本地化的相关任务中,M-CNN的性能明显优于最近的方法。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
代理获取

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号